边缘熵:在信息论与概率统计中,指某个随机变量的边缘分布所对应的熵。若有联合分布 (p(x,y)),则变量 (X) 的边缘熵为
[
H(X) = -\sum_x p(x)\log p(x),\quad \text{其中 } p(x)=\sum_y p(x,y).
]
(常见于与联合熵、条件熵、互信息的对比与分解中。)
/ˈmɑːrdʒənəl ˈɛntrəpi/
Marginal entropy measures how uncertain we are about (X) alone.
边缘熵衡量的是我们对仅仅 (X) 的不确定性有多大。
In a joint model of ((X,Y)), the marginal entropy (H(X)) can be high even if (X) becomes predictable given (Y).
在 ((X,Y)) 的联合模型中,即使在给定 (Y) 的情况下 (X) 变得可预测,边缘熵 (H(X)) 仍可能很高。
marginal 来自拉丁语 margo(“边缘、边界”),在概率论里引申为“从联合分布中把其他变量‘边缘化’(求和/积分)后得到的分布”。
entropy 源自希腊语构词 *en-*(“在……之中”)+ tropē(“转变”),后在信息论中被用来表示“信息不确定性/平均信息量”。